What makes you stand out You hold a degree in Computer Science, Business Informatics, or a comparable qualification.You have strong expertise in SQL databases, including data modeling, table design, and data querying — ideally with experience in Snowflake.You bring experience in developing and integrating data products and are familiar with Azure Data Factory, Python, and modern cloud technologies (preferably Azure).You have hands‑on experience creating meaningful Power BI reports; knowledge of CI/CD or container technologies (e.g., Docker, Kubernetes) is a plus.You work analytically, communicate effectively, collaborate well in teams, and demonstrate a strong hands‑on mentality.You are fluent in English and have very good German skills; you also have a passion for financial databases and enjoy exploring new topics.
Prince 2) An experienced professional contributor with responsibility for an advanced area of work in the professional field Knowledge and/ or experience in application of the subject matter expertise as described in the relevant Competencies Development sheets Inquisitive and analytical mind and excellent understanding of the role and potential for IT in a business context Proven ability to manage non-direct reports to achieve results and work in a multi-cultural multi-functional environment where consensus is critical for success Customer and end-user focused and excellent oral and written communications skills Analytical skills, conceptual thinking, customer focus, seeking information skills, forming relationships, planning and organization skills and teamwork WHAT IS THE PLUS POINT(S) Strong knowledge in current EDI industry standards (EDI, ANSI, RosettaNet, etc).Familiar with EDI implementation best practices and guidelines.Sound knowledge of Business Process and back-end applications ( DGF, Express, Supply Chain and Global Mail)Competent in EDI Technologies / tools.
Du übersetzt Fragen unserer Fachbereiche in verständliche Auswertungen und erstellst standardisierte Reports, Self-Service-Dashboards und kleine Data Apps (z. B. in SAP Analytics Cloud und über Excel Add-ins) und behältst die Usability dabei stets im Blick.
B. mit Databricks, Spark oder Azure Data Factory) und erstellst robuste Datenmodelle Du stellst den stabilen Betrieb unserer BI Tools im Rahmen von Operations, Monitoring, Deployment und Incident Management sicher und legst Wert auf das Thema Datenqualität Du arbeitest eng mit Business Intelligence Engineers und Projektmanagern zu Business Anforderungen, Konzepten und Arbeitspaketen zusammen Dein Schwerpunkt liegt im Bereich Data Engineering, idealerweise bringst du jedoch auch Erfahrungen im Bereich BI Frontend mit (z.B. Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
B. mit Databricks, Spark oder Azure Data Factory) und erstellst Datenmodelle Du stellst den stabilen Betrieb unserer BI Tools im Rahmen von Operations, Monitoring, Deployment und Incident Management sicher Du arbeitest eng mit Business Intelligence Engineers bei der Erstellung von Management Dashboards und Berichten, in Form von gemeinsamen Anforderungen, Konzepten und Arbeitspaketen zusammen Dein Schwerpunkt liegt im Bereich Data Engineering, idealerweise bringst du jedoch auch Erfahrungen im Bereich BI Frontend mit (z.B. Erstellung von Reports, Power BI) Du arbeitest mit den modernsten Tools und Methoden wie DataOps, DevOps und Scrum, wobei du dein Wissen kontinuierlich erweiterst und mit deinen Kollegen teilst Das bringst du mit Dein Studium in einem der Bereiche Mathematik, Informatik, Naturwissenschaft oder Technik (MINT) hast du erfolgreich abgeschlossen oder kannst eine vergleichbare Qualifikation vorweisen Mind. 5 Jahre Berufserfahrung in den Bereichen Data Engineering oder Business Intelligence oder einer vergleichbaren Tätigkeit und Erfahrung in der fachlichen Beratung von Teamkollegen Erfahrung mit der Modellierung von Daten (Star Schema, Data Vault, Dritte Normalform) und der Umsetzung in Softwareprodukten Du verfügst über fundierte Kenntnisse in der Entwicklung von ETL Pipelines idealerweise mit Python, SQL und Spark; wünschenswert sind Kenntnisse in Terraform und Git Du hast Erfahrungen im Umgang mit Big Data Technologien, idealerweise mit Produkten aus der Microsoft Azure Cloud (z.B.
Your Profile Bachelor’s degree in Computer Science, Information Technology, or a related discipline.At least 4 years of experience in CMDB administration and ITSM process management.Strong understanding of IT service management frameworks, particularly ITIL.Hands-on experience with Configuration Management in ServiceNow.Solid knowledge of IT infrastructure, network architecture, and databases such as Microsoft SQL.Proficiency in data analysis and the creation of reports and dashboards.Excellent problem-solving skills and the ability to work independently with a focus on priorities.Strong communication and interpersonal skills.Ability to effectively train and educate others.Enthusiasm for learning and exploring new topics.Proficiency in English.
Deine Aufgaben Entwicklung, Anpassung und Migration von Datenquellen in BI- und Data-Warehouse-SystemenBetrieb, Konfiguration und Weiterentwicklung von Oracle Data Integrator (ODI)Unterstützung bei der Fehlerbehebung und ProduktbetreuungErstellung von Reports und Analyse-Lösungen mit Oracle Analytics Server / PublisherMitwirkung an Projekten in den Bereichen Controlling, Reporting und Datenanalyse Dein Skill-Profil Erfahrung im BI- und Data-Warehouse-UmfeldSehr gute Kenntnisse in Oracle Data Integrator (ODI) inklusive ProduktionsbetriebFundierte Kenntnisse in SQL / PL-SQLErfahrung mit Oracle-Datenbanken und LinuxIdealerweise Kenntnisse in Data-Lakehouse-Konzepten und analytischen ProjektenDeutschkenntnisse auf Niveau C1 Deine Vorteile bei uns Mobiles Arbeiten: Je nach Projekt ist mobiles Arbeiten nach Absprache bei uns möglich.Familienfreundlichkeit: Wir stocken Dein Gehalt bei Erkrankung Deines Kindes auf 100% auf.
Prince 2) An experienced professional contributor with responsibility for an advanced area of work in the professional field Knowledge and/ or experience in application of the subject matter expertise as described in the relevant Competencies Development sheets Inquisitive and analytical mind and excellent understanding of the role and potential for IT in a business context Proven ability to manage non-direct reports to achieve results and work in a multi-cultural multi-functional environment where consensus is critical for success Customer and end-user focused and excellent oral and written communications skills Analytical skills, conceptual thinking, customer focus, seeking information skills, forming relationships, planning and organization skills and teamwork WHAT IS THE PLUS POINT(S) Software AG (Apama, Terracotta) – min 2 years experienceJava.
Das ist die Aufgabe Mitwirken im innovativen Big Data Team: Unterstütze andere Fachbereiche durch Expertise in Data Analytics und erhalte Einblicke in Data Science und Data Visualization, um datengetriebene Entscheidungen voranzutreiben Beteiligen an Analytics Projekten: Arbeite interdisziplinär, um Produkte und interne Prozesse durch datengetriebene Insights zu optimieren, mit der Chance, echte geschäftliche Herausforderungen mit modernen Analysemethoden zu lösen Entwickeln von Analysemodellen: Nutze Data Science Tools wie PySpark oder Azure Synapse für komplexe Datenprobleme und gewinne wertvolle Einblicke Erstellen und Präsentieren von Reports: Gestalte mit Power BI visuell ansprechende Reports, die Analyseergebnisse verständlich machen, und teile deine Erkenntnisse mit internen Stakeholdern Kommunizieren von Ergebnissen: Präsentiere deine Analysen und Empfehlungen, um Entscheidungsprozesse zu beeinflussen und kommunikative Fähigkeiten zu stärken Das wünschen wir uns Laufendes Studium der Fachrichtung Informatik, Wirtschaftsinformatik, Mathematik oder vergleichbare Studiengänge Erste Erfahrungen in der Analyse, Transformation und Visualisierung von Daten von Vorteil Fachliche Kenntnisse im Bereich Cloud Lösungen wie Microsoft Azure vorteilhaft Gute Programmierkenntnisse, vorzugsweise in Python und SQL Selbstorganisierte, strukturierte und zielorientierte Arbeitsweise im Team Ein hohes Maß an Neugierde, um neue Erkenntnisse aus Daten zu generieren Gute Deutsch- und Englischkenntnisse in Wort und Schrift Weitere Details zur Stelle Gehalt: 2.117 €/Monat Beginn: ab April 2026 Bitte füge deiner Bewerbung folgende Unterlagen bei: Lebenslauf, aktueller Notenspiegel und Immatrikulationsbescheinigung sowie wenn vorliegend Arbeitszeugnisse und deine gültige Arbeits- und Aufenthaltserlaubnis
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least two years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Additional information: **Working model: Due to the upcoming tasks and responsibilities for this position, it is required to work onsite at our headquarters in Hamburg or Berlin on a weekly basis.
Main Responsibilities: Work directly with Sales Engineers, Product Sales Development Managers, and Sales ManagersAnalyze sales data and pricing trends to support improvements in market‑specific pricingTrack online pricing for vacuum pump technology to assess competitive positioningDesign and generate reports, dashboards, and visualizations for the management teamAttend sales meetings, business functions, service calls, and customer visits alongside account managers and mentorsSupport development of internal data strategies to drive pricing and market‑focused sales initiativesBuild an appreciation for how data influences direct and indirect sales and marketing strategiesPerform other related duties as assignedTo succeed, you will need Skills / Knowledge / Experience: Education level: Must be a Junior or Senior majoring in: Computer ScienceManagement Information SystemsBusiness / Marketing AnalyticsIndustrial Engineering Knowledge areas/Skills: Strong analytical and creative problem‑solving skillsProficiency in Excel and/or Python; Tableau or PowerBI experience preferredSelf‑motivated, independent, flexible, organized, and methodicalResults‑driven, accountable, and ambitiousAdaptability in a dynamic, fast‑paced environmentIn return, we offer We believe there is always a better way.
What you will do: Focus on the design, development, and execution of automated end-to-end tests Manage and prioritize bug reports, keeping their business value in mind Lead regression testing, identify and resolve defects to ensure the stability of high-traffic customer interactions and transactions Analyze complex workflows, data flows, and database interactions to identify potential areas for improvement in test coverage and performance Report bugs and reproduce them throughout the complete bug cycle Coordinate testing efforts to ensure the delivery of quality features Advocate for product quality within cross-functional teams Contribute to ABOUT YOU’s long-term automation strategy in testing Who you are: 4+ years of experience in QA, testing, and debugging REST backend applications, with strong knowledge of HTTP methods, status codes, headers, and error handling Proficient in API validation against OpenAPI/Swagger specifications 4+ years of experience with JavaScript/TypeScript or other OOP languages, using frameworks like Mocha/Playwright, and GitlabCI 2+ years of experience working with relational and NoSQL databases, focusing on integration and data flows Passionate about automation and building maintainable test suites that provide continuous feedback, with strong skills in both exploratory and automated testing Experienced with agile methodologies Excellent communication skills, including fluent written and spoken English for clear collaboration Solid understanding of transaction systems, gateways, customer data, and large-scale database structures Committed to identifying and addressing issues early, ensuring high-quality customer-facing features and services Benefits Hybrid working Fresh fruit every day Sports courses Free access to code.talks Exclusive employee discounts Free drinks Language courses Company parties Help in the relocation process Mobility subsidy Central Location Flexible Working Hours Professional training Dog-friendly office Feedback Culture Job Bikes YOU ARE THE CORE OF ABOUT YOU We take responsibility for creating an inclusive and exceptional environment where all genders, nationalities, and ethnicities feel welcomed and accepted exactly as they are.
Monitoring & Analysis Monitor applications and infrastructure using tools.Analyze performance data, identify bottlenecks, and recommend improvements.Create dashboards and KPI reports. Maintenance & Administration Perform regular maintenance for OT applications.Maintain master data based on service requests.Manage Kubernetes deployments and scaling.Ensure compliance with IT/OT security standards.
Documentation,Traceability & Compliance • Maintain full traceability of inspected items, datasets, images, and reports in line with internal procedures and defense-grade standards. • Ensure high documentation quality and audit readiness; support audits, investigations, and internal reviews related to NDT and product integrity.
Documentation,Traceability & Compliance • Maintain full traceability of inspected items, datasets, images, and reports in line with internal procedures and defense-grade standards. • Ensure high documentation quality and audit readiness; support audits, investigations, and internal reviews related to NDT and product integrity.
Furthermore, the team is responsible for building an ETL platform used by other stakeholders and the team itself, such as for generating financial reports. What you will do: Development and evaluation of statistical models and algorithms for complex marketing issues Independent analysis of complex data with the aim of identifying new insights and potential for performance optimization Identifying direct and indirect correlations between relevant key figures and deriving recommendations for action Linking and using the content of data from tracking systems and other reporting sources Support in the further development and testing of performance-relevant (attribution) models Initiation and further development of prediction and classification models using machine learning algorithms Who you are: You bring at least seven years of hands-on experience in Data Engineering, ideally in an agency, e-commerce, or performance-driven environment You have initial experience with machine learning algorithms and a solid understanding of common data analysis methods such as regression and clustering; knowledge of marketing attribution models is a strong plus You are proficient in SQL and either Python or R (both are a bonus) Experience with Dagster or comparable data orchestration tools is highly appreciated You are naturally curious, enjoy exploring new topics, statistical methods, and emerging technologies, and stay up to date with current technical developments Benefits Hybrid working Täglich frisches Obst Sportkurse Freier Zutritt zur code.talks Exklusive Mitarbeiter Rabatte Kostenlose Getränke Sprachkurse Kostenloser Laracasts Account Company Events Relocation Unterstützung Mobilitätszuschlag State-of-the-art Technologien Zentrale Lage Flexible Arbeitszeiten Betriebliche Altersvorsorge Weiterbildungs- angebote Hunde erlaubt AY Academy Feedbackkultur Firmenfahrrad YOU ARE THE CORE OF ABOUT YOU.
Proactive in achieving the highest standard of operation. Have good IT and report writing skills. Ability to work under pressure whilst remaining calm, clear thinking and able to deliver the required services to the client within given time constraints.
As Chief Chemical Engineer / Manager, you will be the scientific authority for solid propellant production and a key leader in our production organization. You will have two direct reports (chemists/technologists) and report to the Chief Production Officer (CPO) based in Vojens, Denmark. Your main responsibilities will include: Own the chemistry of our solid propellants – develop, document, and validate all fuel formulations and recipe control standardsDefine and maintain critical process parameters (temperature, mixing time, vacuum, catalysts, etc.) and ensure robust process windows from lab scale to full-scale productionLead and manage the analytical laboratory: raw material testing, in-process testing, test methodologies, calibration, documentation, and data traceabilityDrive recipe change control – plan and execute pilot batches, validation, and transfer to production, including updates of SOPs and work instructionsConduct root-cause analysis in collaboration with Process Engineering and Maintenance to address recurring defects, quality deviations and process instabilityEnsure full batch traceability and strong HSE practices for hazardous materials (classification, storage, transport, and safe handling)Collaborate closely with Quality Control to define sampling plans, acceptance criteria and CAPA activities (Corrective and Preventive Actions)Contribute to supplier qualification and material approval, including definition and verification of technical specificationsContinuously improve yield, scrap rate and recipe cost through optimization of formulations and process parametersMaintain and prepare documentation for ISO, AQAP and defense-quality audits related to chemical operationsLead, coach, and develop your team of chemists and technologists and help build a strong safety- and quality-driven culture on site We are looking for an experienced and hands-on chemical leader who thrives in a high-tech, safety-critical production environment and enjoys building something new.
What you will do Gather, analyze, and interpret data to fulfill reporting requests from business stakeholders Translate complex data into clear, actionable insights that support business strategy Support ad hoc analysis and contribute to data-driven decision-making Automate routine reporting processes and maintain existing reports to ensure reliability and improve data workflows Maintain, design, and implement advanced dashboards using tools like Google Looker Studio, enabling self-service analytics across the organization Collaborate with data engineers, data scientists, and stakeholders across the organization to ensure data quality and consistency while delivering data-driven insights that support supply-related business decisions Communicate findings effectively to technical and non-technical audiences Foster a data-driven culture within the organization, promoting the use of analytics in decision-making processes Who you are You have at least 1-2 years of experience as a Data Analyst Proficiency in SQL for complex data analysis, reporting, and querying large datasets Experience with Google BigQuery Experience with data visualization tools (e.g., Looker Studio, Excel, or similar) to create compelling dashboards and reports Excellent communication skills in English Ability to translate fuzzy business requirements from diverse stakeholders into analytical requirements.
Das blüht Ihnen bei uns – Ihre Aufgaben als Expert/Sachbearbeiter Master Data Management & Product Data (m/w/d): Pflege und Aktualisierung von Stammdaten Prüfung der Datenqualität Unterstützung bei der Durchführung von Datenimporten und -exporten Dokumentation von allen durchgeführten Änderungen Identifikation von Datenfehlern und Zusammenarbeit mit anderen Abteilungen zur Fehlerbehebung Ansprechpartnerfunktion bei Fragen zur Stammdatenpflege sowie Führen von Schulungen zu relevanten Systemen Erstellung von Reports und Analysen sowie Ableitung von Verbesserungsvorschlägen Der Nährboden Ihrer Arbeit – Das bieten wir: Flexibilität & Work-Life-Balance erleben: Sie haben bei uns die Möglichkeit ortsunabhängig aus dem Mobile Office/Remote mit definierten Präsenztagen in Rain zu arbeiten.
Provide comprehensive technical consulting to our clients on all matters of electromagnetic compatibility (EMC), from the concept and development phase through to successful product approvalIndependently analyze complex electronic systems (PCBs, schematics, mechanical designs, specifications, test plans, and reports) to identify and sustainably mitigate EMC-related risksPlan, conduct, and evaluate EMC pre-compliance tests, including deriving concrete optimization measuresSystematically investigate the root causes of EMC issues and provide technical support for redesigns and product optimizationsAct as a knowledgeable sparring partner for client development teams regarding design decisions and EMC strategiesCollaborate closely with Sales, Marketing, Product Management, and Engineering to continuously enhance our service and performance offeringsActively contribute to the development of modern testing methods, measurement concepts, and technical solutions in the EMC domain What you bring?
Dabei entwickelst und optimierst Du Dashboards, zum Beispiel in Power BI, für Management- und Performance-Reports, um transparente Einblicke in die Unternehmensabläufe zu ermöglichen. Datenanalyse und Entscheidungsunterstützung Du führst tiefgehende Analysen von Daten aus SAP, SAP IBP sowie weiteren IT-Systemen und Datenbanken durch.
Du wirkst in unseren agilen Projekten mit, bringst Deine Expertise ein und erstellst Reports, Analysen und ad-hoc Abfragen. Profil Erfolgreich abgeschlossenes Hochschulstudium im Bereich Wirtschaftswissenschaften oder vergleichbarer Ausbildungshintergrund, z.B.
Bei unserem Kunden bist Du für den Aufbau und die Weiterentwicklung eines BI-Systems – von der fachlichen Anforderung bis hin zum fertigen Report – verantwortlich.Du gestaltest aktiv Workshops, um Anforderungen aufzunehmen und bildest die Schnittstelle zwischen Fachabteilung und IT.Du erstellst Konzepte für ein Data Warehouse-Backend und modellierst diese in unserem Tool Innovator.Du gestaltest die Architektur des BI-Systems und entwickelst moderne Lösungen für ein Datenmodell.Du optimierst bestehende ETL-Prozesse und konzipierst ETL-Datenstrecken, um neue Datenquellen an das Data Warehouse anzubinden.Dein Studium mit dem Schwerpunkt Informatik / Wirtschaftsinformatik oder eine vergleichbare Qualifikation hast Du abgeschlossen.
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI ReportingSQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender ReportsDatenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden SystemlandschaftAufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mitDatenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werdenOperative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiterAnsprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data ManagementMehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-UmfeldNachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query)Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen DatenbankenTiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-ProzessenMehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von ProzessenSehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BIErfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen PartnerWir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und VorstellungsgesprächenWir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe VermittlungsquoteIndividuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Transformation der Reporting-Landschaft: Du begleitest die weitere Transformation unserer bestehenden Reporting-Landschaft hin zu state-of-the-art Power BI Reporting SQL-Datenabfragen und -Reports: Du nutzt Deine fundierten SQL-Kenntnisse für effiziente Datenabfragen und die Erstellung darauf basierender Reports Datenmodellierung: Gemeinsam mit Deinem Team bist Du verantwortlich für die fachliche (Weiter-)Entwicklung von Datenmodellen in unserer bestehenden Systemlandschaft Aufbau und Weiterentwicklung des Data Management Systems: Du wirkst maßgeblich am Aufbau und an der Weiterentwicklung des Data Management Systems und der zugehörigen Prozesse mit Datenqualität und -konsistenz: Du stellst sicher, dass Informationen und Daten im Unternehmen korrekt und konsistent angelegt und gepflegt werden Operative Lösungen und Data Governance: Du entwickelst operative Lösungen zur Verbesserung der Datenqualität in unserem Unternehmen und entwickelst die dahinterliegende Governance aktiv weiter Ansprechpartner für Fachbereiche: Du unterstützt Deine direkten Controlling-Kollegen bei der Beschaffung und Analyse von Daten und fungierst als zentraler Ansprechpartner für andere Fachabteilungen Ein erfolgreich abgeschlossenes Studium der Betriebswirtschaftslehre, Mathematik, Wirtschaftsinformatik, Informatik oder eines vergleichbaren Studiengangs mit Schwerpunkt Data Analytics, Data Science oder Data Management Mehrjährige, einschlägige Berufserfahrung im Data Management oder im Bereich Data Analytics, idealerweise im Finanzdienstleistungs- oder Leasing-Umfeld Nachweislich sehr gute und praxiserprobte Kenntnisse in der Entwicklung, Implementierung und Wartung von Power BI Reports und Dashboards (DAX, Power Query) Profunde und anwendungsbereite Kenntnisse in SQL für komplexe Datenabfragen, Datenmanipulation und die Arbeit mit relationalen Datenbanken Tiefgehendes Verständnis und praktische Erfahrung in der Konzeption und Optimierung von Datenmodellen, Datenstrukturen und ETL-Prozessen Mehrjährige Erfahrung in der Definition, Analyse und Weiterentwicklung von Prozessen Sehr gute Kenntnisse in Microsoft Excel, insbesondere Power Query sowie Microsoft Power BI Erfahrung im Umgang mit Master-Data-Management- und Data-Governance-Tools Sie profitieren von dem exklusiven Zugang zu interessanten Unternehmen und spannenden Projekten in Zusammenarbeit mit Hays als einem soliden und stabilen Partner Wir geben Ihnen wertvolle Tipps und Feedback zu Ihren Bewerbungsunterlagen und Vorstellungsgesprächen Wir erstellen ein Bewerberprofil mit Ihren Stärken und Potentialen und sorgen dadurch für eine hohe Vermittlungsquote Individuelle Rundum-Betreuung: Unterstützung in der kompletten Bewerbungsphase Ihr Kontakt Referenznummer 862723/1 Kontakt aufnehmen Telefon:+ 49 621 1788-4297 E-Mail: positionen@hays.de Anstellungsart Anstellung bei der Hays Professional Solutions GmbH
Ihre Aufgaben Zu Ihren Aufgaben gehört die Konzeption, Erstellung und Pflege aussagekräftiger Berichte und Auswertungen mithilfe von SSRS oder vergleichbaren Reporting-ToolsMit gut strukturierten SQL-Abfragen und optimierten Datenbankstrukturen tragen Sie zu einer hohen Datenqualität und Performance beiDie Betreuung, Weiterentwicklung und Stabilität der eingesetzten Datenbanksysteme liegen ebenfalls in Ihrem VerantwortungsbereichAußerdem entwickeln und warten Sie webbasierte Anwendungen und stellen deren reibungslosen Betrieb sicherIn enger Zusammenarbeit mit verschiedenen Fachbereichen wirken Sie daran mit, Datenmodelle und Architekturstrukturen kontinuierlich zu verbessernAuch die Integration neuer Datenquellen und deren Einbindung in bestehende Systeme gehört zu Ihrem ArbeitsalltagDurch das interne Ticketsystem behalten Sie jederzeit den Überblick über alle anstehenden Aufgaben und Prioritäten Ihre Fähigkeiten Vorausgesetzt wird eine abgeschlossene Ausbildung oder ein Studium im IT-Bereich, etwa in Informatik oder WirtschaftsinformatikPraktische Erfahrung im Umgang mit dem Microsoft SQL Server ab Version 2019 bildet eine wichtige GrundlageKenntnisse in SSIS, SSRS und der Arbeit mit Microsoft Visual Studio (ab Version 2019) sind erforderlichErste Berührungspunkte mit Programmiersprachen wie Python, Java, JavaScript, C# oder .NET werden ebenfalls erwartetErfahrungen mit Reporting-Werkzeugen wie Crystal Reports oder dem Microsoft Report Builder sind von VorteilEbenso hilfreich ist ein sicherer Umgang mit dem Internet Information Services (IIS) zur Verwaltung von WebanwendungenWünschenswert sind zudem Kenntnisse in der Administration Microsoft-basierter SoftwarearchitekturenAls Pluspunkt gelten Know-how im Bereich OLAP-Datenbanken sowie ein generelles Interesse an UX- oder Webdesign-Themen Das wird dir geboten Ein moderner ArbeitsplatzEin Superheroteam mit echtem TeamspiritEine echte und gelebte Work-Life-Balance mit Home Office MöglichkeitenUmfangreiche GesundheitsangeboteFahrtkostenzuschuss bewerbung@ps-direkt.com Tel. 0221-846909-0 oder schreib uns gerne auf Xing an!
Maintain and troubleshoot data integration pipelines to ensure stable data flow into AI and analytics systems Support model development by assisting with training, validation, and optimization of machine learning workflows Conduct data analysis to extract insights and provide clear reports supporting R&D research questions Solve technical challenges related to data access, pipeline performance, and software limitations Ensure continuity of ongoing projects by aligning closely with the core team and delivering on timelines Perform image analysis and prepare datasets required for scientific and ML use cases Manage and improve ETL processes to ensure data quality, structure, and availability Document workflows, pipeline changes, and analytical steps to ensure clarity and reproducibility Academic background in computer science, data science, engineering, or a related quantitative field Strong proficiency in Python with expertise in scientific and analytical libraries Skilled in SQL and working with relational databases Understanding of ETL concepts and practical experience working with data pipelines Solid foundation in machine learning principles and model lifecycle Ability to perform image analysis for scientific or research applications Strong communication and interpersonal skills with the ability to collaborate in a technical team Independent, structured problem-solver with a commitment to clear documentation and FAIR data practices Opportunity to contribute directly to active R&D projects with immediate real-world impact Hands-on involvement in AI, machine learning, and data integration challenges in a scientific environment Close collaboration with a small, highly skilled technical team Ihr Kontakt Referenznummer 863771/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
Ihre Aufgaben Konzeptionierung und Erstellung von Reportings und Analysen für interne und externe Kunden des Kundenservice Umsetzung von Report- und Analyseanforderungen auf Basis der Data Warehouses Unterstützung in der Konzeptionierung und Weiterentwicklung des Kundenservice P&P eigenen Data Warehouses Durchführung von Projekten zur Optimierung des Reportings und der Analysefähigkeiten im Kundenservice P&P Ihr Profil Fachanforderungen Abgeschlossenes Studium der Statistik, Mathematik, Informatik, Wirtschaftswissenschaften oder vergleichbare Studienausrichtung Mehrjährige Berufserfahrung in einer vergleichbaren Tätigkeit Erfahrungen aus der Customer Contact Center Branche und im Projektmanagement sind wünschenswert Ausgeprägte konzeptionelle Fähigkeiten in Kombination mit einer hohen Zahlenaffinität Fundierte Kenntnisse der MS Office Standardsoftware (insbesondere Excel, Access und PowerPoint) Fundierte Kenntnisse in Microsoft BI Produkten (z.B.
Maintain and troubleshoot data integration pipelines to ensure stable data flow into AI and analytics systemsSupport model development by assisting with training, validation, and optimization of machine learning workflowsConduct data analysis to extract insights and provide clear reports supporting R&D research questionsSolve technical challenges related to data access, pipeline performance, and software limitationsEnsure continuity of ongoing projects by aligning closely with the core team and delivering on timelinesPerform image analysis and prepare datasets required for scientific and ML use casesManage and improve ETL processes to ensure data quality, structure, and availabilityDocument workflows, pipeline changes, and analytical steps to ensure clarity and reproducibility Academic background in computer science, data science, engineering, or a related quantitative fieldStrong proficiency in Python with expertise in scientific and analytical librariesSkilled in SQL and working with relational databasesUnderstanding of ETL concepts and practical experience working with data pipelinesSolid foundation in machine learning principles and model lifecycleAbility to perform image analysis for scientific or research applicationsStrong communication and interpersonal skills with the ability to collaborate in a technical teamIndependent, structured problem-solver with a commitment to clear documentation and FAIR data practices Opportunity to contribute directly to active R&D projects with immediate real-world impactHands-on involvement in AI, machine learning, and data integration challenges in a scientific environmentClose collaboration with a small, highly skilled technical team Ihr Kontakt Referenznummer 863771/1 Kontakt aufnehmen Telefon:+41 44 225 50 00 E-Mail: positionen@hays.ch Anstellungsart Freiberuflich für ein Projekt
zurück Baienfurt Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z.
zurück Stockstadt am Rhein Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z.
zurück Stockstadt am Rhein Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z.
zurück Baienfurt Abgeschlossene Berufsausbildung oder Studium Vollzeit Unbefristet Ihre Aufgaben Entwicklung und Pflege von Datenmodellen und Reports in Power BI zur Unterstützung datenbasierter Entscheidungen Analyse und Aufbereitung von Geschäfts- und Prozessdaten sowie Identifikation von Trends, Abweichungen und Optimierungspotenzialen Aufnahme, Strukturierung und Umsetzung von Reporting- und Analyseanforderungen aus verschiedenen Fachbereichen Integration und Aufbereitung von Daten aus unterschiedlichen Quellsystemen, insbesondere aus dem Microsoft Dynamics 365 Umfeld (z.
Zum nächstmöglichen Zeitpunkt suchen wir in Weeze für die IT eine/n Data Analyst (m/w/d) Deine Aufgaben Du analysierst, designst und realisierst innovative Business Intelligence (BI) Lösungen Du erfasst und spezifizierst fachliche Anforderungen Du analysierst Prozesse und erarbeitest Optimierungspotentiale Du erstellst Reports und Dashboards Du erarbeitest Ideen zur Verbesserung und Weiterentwicklung unserer BI-Systeme und Datenbankstrukturen Du unterstützt unsere Fachbereiche bei BI-Fragestellungen Dein Profil Basic: Du hast eine berufliche Ausbildung oder ein Studium im Bereich der Informatik, Mathematik, Wirtschafts-, Natur- oder Ingenieurwissenschaften.
Identify non-conformities, recommend product and process changes, and initiate Fracas fault reports (FRNs). Chair and write up safety reviews. Support UL, CSA and Semi S2 inspections. Conduct EMC emission measurements and support EMC immunity testing.
Reviews production schedules, work orders, engineering specifications, and related information to estimate manufacturing costs, design cost saving methods, and determine the effects of process changes on costs and quality; provides reports for management review, action, and control. Creation and maintenance of work instructions Works to reduce working capital by implementing methods and systems to ensure a more effective and efficient level of inventory.
Reviews production schedules, work orders, engineering specifications, and related information to estimate manufacturing costs, design cost saving methods, and determine the effects of process changes on costs and quality; provides reports for management review, action, and control. Creation and maintenance of work instructions Works to reduce working capital by implementing methods and systems to ensure a more effective and efficient level of inventory.
FortiGate, firewalld/iptables), Mikrosegmentierung, Firmware‑ und Regel‑Rollouts; Erstellung ISMS‑konformer Reports im Kontext NIS2Durchgängiges Monitoring (LAN/WAN/IP), Analyse von Incidents, Koordination von Störungen mit internen Teams und Herstellern – bis zur nachhaltigen BehebungDesign & Betrieb in Azure Hub‑and‑Spoke sowie SDN‑Konzepten in Azure; Anbindung/Aufbau von AWS‑NetzwerkenVerwaltung von DNS‑Zonen und ‑Records für interne/extern erreichbare ServicesGeplante Maintenance‑Windows, CVE‑Bewertung, Rollback‑Szenarien und 4‑Augen‑Prinzip; Teilnahme an geregelter Rufbereitschaft im TeamSaubere Dokumentation, Standards/Guardrails, Entwickler‑Enablement und Onboarding‑Unterlagen für eine reibungslose, skalierbare Bereitstellung Das könntest du bei uns EINBRINGEN: Firewall-Skills: mindestens 3 Jahre Erfahrung mit FortiGate oder vergleichbaren Lösungen (z.
Mit deiner Arbeit förderst du eine Verbesserungskultur im gesamten Unternehmen und unterstützt den kontinuierlichen Verbesserungsprozess (KVP). Monitoring & Reporting Du erstellst Reports zur Datenqualität und dokumentierst die Ergebnisse verständlich und nachvollziehbar. Anhand deiner Auswertungen leitest du Verbesserungsmaßnahmen ab oder unterstützt deren Definition in den Fachbereichen.
Was Deinen Tag bei uns ausmacht: Reporting und Visualisierung Du erstellst und pflegst Reports sowie Dashboards, zum Beispiel in Power BI, zur anschaulichen Visualisierung relevanter Supply-Chain-Kennzahlen und zur Unterstützung transparenter Entscheidungsprozesse.
TO DO`S: DAS BRINGT DER JOB Aufbau und Weiterentwicklung einer zentralen Daten- und ReportingplattformIntegration von ERP-, Shop-, Amazon- und Marketingdaten-Sicherstellung einer Single Source of Truth für Umsatz, Kosten und DeckungsbeiträgeEntwicklung automatisierter Dashboards und Reports für Management und FachbereicheUnterstützung bei Analysen zu Pricing, Kampagnen und Kanalperformance MUST HAVES: DAS BRINGEN SIE MIT Mehrjährige Erfahrung im Bereich Data Analytics / Business IntelligencSehr gute SQL-Kenntnisse und Erfahrung mit BI-Tools (z.
(Amazon/B2C and B2B) Fixed Asset Review Backup for accounts payable, accounts receivable and payroll functions as needed. Analyze financial data and prepare reports for management review. Collaborate with team members to improve accounting processes and procedures. Support audits by providing necessary documentation and information.
About us Your Contribution Own and control project scopes, schedules and budgets; manage risks/issues and communicate status to stakeholdersLead cross functional execution with Production, Quality, Maintenance, Supply Chain, EHS, and Global EngineeringManage CAPEX, PO releases, FAT/SAT planning, cost tracking/forecasting and accurals; deliver fiscal year plan on time and on budgetPrepare and maintain audit ready documentation aligned to US cGMPOperate in accordance with standard cleanroom conduct consistent with ISO 14644 practices and internal QMS and site Contamination Control StrategyOwn change controls (local and global)- initiaiton, risk assessment, execution plan, verification of effectivensss and closure Lead/support validation and qualification for equipment, products, processes, etc.Integrate into operations; plan trials and downtime, coordinate line readiness/tech transfer, create/update SOPs, define PM requirements and maintenance plans, ensure spares/training are in placeSupport quality investigationsDrive continuous improvement with Lean to improve OEE, scrap rates, uptime and cycle times Mentor/train Engineers and Technicians (no direct reports); structured troubleshooting/problem solving and Best Known Methods; develop quick-reference guides/checklist, where needed Promote safety and EHS and adhere to all Company policies, procedures and guidelines Your Profile Bachelor's degree in Engineering (Mechanical, Electrical, Chemical, Industrial/Manufacturing, Pharmaceutical or Materials) or equivalent4+ years in regulated manfuacturing Project management and CAPEX executionSix Sigma Green/Black Belt and/or PMPValidation and QMS: URS, FMEA, VMP, IQ/OQ/PQ/PV; author/review protocols/reports, managing deviations/CAPA; change controls Working knowledge of cGMP, ISO 9001, ISO 15378Knowledge and experience in leading new equipment/NPI validationsLean/CI; 5S, Kaizen, DMAIC, root cause (5-why, fishbone)Tools: SAP, MS Project, MS TEAMS, Solidworks and MinitabStrong skills in MS Office Ability to read, write and speak EnglishTeam player with upbeat approach Your Benefits Excellent healthcare benefits including medical, dental and visionShort and long term disability Tuition reimbursement Paid time offPet insurance Other supplemental benefits available upon election Please feel free to contact usYour Profile Bachelor's degree in Engineering (Mechanical, Electrical, Chemical, Industrial/Manufacturing, Pharmaceutical or Materials) or equivalent4+ years in regulated manfuacturing Project management and CAPEX executionSix Sigma Green/Black Belt and/or PMPValidation and QMS: URS, FMEA, VMP, IQ/OQ/PQ/PV; author/review protocols/reports, managing deviations/CAPA; change controls Working knowledge of cGMP, ISO 9001, ISO 15378Knowledge and experience in leading new equipment/NPI validationsLean/CI; 5S, Kaizen, DMAIC, root cause (5-why, fishbone)Tools: SAP, MS Project, MS TEAMS, Solidworks and MinitabStrong skills in MS Office Ability to read, write and speak EnglishTeam player with upbeat approach
About us Your Contribution Security Monitoring & Vulnerability Management Continuously monitor SAP systems using SecurityBridge and other tools like Cloud ALM and Solution Manager.Review system logs for anomalies and suspicious activities.Perform vulnerability scans and prioritize remediation based on risk severity.Monitor for unauthorized access attempts, configuration changes, and suspicious activities.Develop and maintain dashboards for real-time security posture visibility.Coordinate patch management and system hardening activities.Conduct initial forensic analysis in case of security incidents and prepare reports. Audit & Basis Support Support internal and external audits.Assist with periodic compliance reviews and risk assessments.Implement and monitor automated compliance checks using SecurityBridge.Collaborate with Basis team on system hardening and secure configuration of SAP landscapes.Participate in disaster recovery planning and testing for SAP environments.
Technische Ausbildung Anwendungskenntnisse gängiger QM-Methoden (APQP, FMEA, PPAP, 8D-Report) Einschlägige Erfahrung im Bereich Qualitätsmanagement Umgang mit QM Core Tools Erfahrung in der Vorbereitung und Durchführung von Audits, IAT 16949 Erfahrung mit Kundenanforderungen SAP-Kenntnisse Gute Englischkenntnisse Dann bieten wir: Einen spannenden Arbeitsplatz in einer dynamischen Industrie, facettenreiche Herausforderungen sowie persönliche und fachliche Entwicklungsmöglichkeiten in einem kollegialen Arbeitsumfeld.
Key Responsibilities Develop and maintain detailed project budgets, cost estimates, and financial forecasts for data center construction and infrastructure projects, tracking expenditures against approved budgetsPrepare comprehensive cost reports, cash flow projections, and value engineering analyses to optimize project costs while maintaining quality standards and technical requirementsCoordinate with project managers, contractors, and procurement teams to evaluate contract proposals, change orders, and variation requests while ensuring cost-effective project deliveryConduct risk assessments for cost implications, develop contingency strategies, and monitor market conditions affecting material and labor costs in data center constructionReview and validate contractor invoices, progress payments, and final accounts while maintaining detailed cost documentation and audit trails for financial complianceSupport procurement processes, tender evaluations, and contract negotiations to achieve optimal value while facilitating cost reconciliation, lessons learned, and knowledge transfer for future project Qualifications & Skills Bachelor's degree in Quantity Surveying, Construction Management, Engineering, or related field with several years of experience in cost management for data center or mission-critical facility projectsComprehensive knowledge of data center construction costs, industry pricing trends, and ability to interpret technical specifications for accurate cost estimation and budget developmentStrong financial analysis expertise with proficiency in cost management software, spreadsheet applications, and demonstrated ability to prepare detailed cost reports and forecastsExcellent analytical, communication, and stakeholder management skills with proven ability to negotiate with contractors and suppliers while managing cost-related project risksExperience with value engineering, life-cycle costing, and cost optimization techniques in complex construction environments with understanding of procurement processes and contract administration Jones Lang LaSalle SE Human Resources Ihr Ansprechpartner: Jan Bauermann Talent Acquisition Partner EMEA jan.bauermann@jll.com Location: On-site –Frankfurt am Main, DEU If this job description resonates with you, we encourage you to apply even if you don’t meet all of the requirements.
What makes you stand out You hold a degree in economics, (business) informatics, or a comparable qualification, and you have at least 3 years of experience in data governance, data management, or another data‑driven field.You have successfully supported data governance programs in complex organizational environments and know how to use and maintain data catalogs to keep data clean, discoverable, and well‑structured.You are confident working with modern data architectures, governance standards, and regulatory requirements, and you use analytical BI tools effectively for data‑driven analysis.You are proficient in MS Office—especially PowerPoint, Excel, and Word—and you create professional analyses, reports, and presentations that are convincing both in content and design.You work independently, systematically, and reliably, maintain a strong results orientation, and communicate fluently in both German and English.As a nice‑to‑have, you bring experience in product management and/or AI governance (e.g., EU AI Act).
MySQL Python Google BigQuery Gitlab What you will do Conduct in-depth analyses on shop user behavior to uncover actionable insights Drive shop optimization and growth by providing analytical insights to Business and Product Owners and influencing product enhancements Shape the success metrics for our shop, developing and monitoring KPIs that directly impact millions of users’ shopping experiences Provide full-cycle A/B test analytical support to optimize shop performance Define tracking requirements and support QA of tracking implementations to ensure data accuracy and reliability Design and implement advanced dashboards, enabling self-service analytics across the organization Collaborate with multiple stakeholders across the organization to answer shop-related questions with analytical insights, supporting business decision-making Who you are Advanced proficiency in SQL for complex data analysis and querying large datasets Expertise in e-commerce KPIs and funnel analysis Solid understanding of web analytics and experience working with frontend tracking data (GA4 experience is a plus) Experience with data visualization tools (e.g., Looker Studio, Tableau, or similar) to create compelling dashboards and reports Advanced knowledge of A/B testing methodology and statistical analysis for experiment design and interpretation Strong understanding of customer segmentation and cohort analysis in the e-commerce context Proactive and self-driven, with the ability to work independently and drive projects from conception to completion Collaborative mindset, adept at working with cross-functional teams and building strong relationships with stakeholders Pragmatic approach to problem-solving, consistently delivering efficient, data-driven solutions.
Provide expert technical input to development projects by integrating real site-specific load insights. Prepare clear technical reports and documentation summarizing analyses and results. Support certification processes and claims investigations with deep technical understanding.